home *** CD-ROM | disk | FTP | other *** search
/ Ian & Stuart's Australian Mac: Not for Sale / Another.not.for.sale (Australia).iso / fade into you / being there / Issues & Ideas / Agents / Abstracts next >
Text File  |  1994-10-02  |  4KB  |  79 lines

  1.  
  2.                                    ABSTRACTS
  3.                                        
  4.   COLLABORATIVE INTERFACE AGENTS
  5.   
  6.    Accepted to AAAI '94
  7.    Y. Lashkari, M. Metral, P. Maes
  8.    Postscript Version or HTML Version
  9.    
  10.    Interface agents are semi-intelligent systems which assist users with
  11.    daily computer-based tasks. Recently, various researchers have
  12.    proposed a learning approach towards building such agents and some
  13.    working prototypes have been demonstrated. Such agents learn by
  14.    `watching over the shoulder' of the user and detecting patterns and
  15.    regularities in the user's behaviour. Despite the successes booked, a
  16.    major problem with the learning approach is that the agent has to
  17.    learn from scratch and thus takes some time becoming useful. Secondly,
  18.    the agent's competence is necessarily limited to actions it has seen
  19.    the user perform. Collaboration between agents assisting different
  20.    users can alleviate both of these problems. We present a framework for
  21.    multi-agent collaboration and discuss results of a working prototype,
  22.    based on learning agents for electronic mail.
  23.    
  24.   NEWT
  25.   
  26.    HTML Version
  27.    
  28.   PAYING ATTENTION TO WHAT'S IMPORTANT
  29.   
  30.    Accepted to SAB '94
  31.    L. Foner, P. Maes
  32.    Postscript Version
  33.    Adaptive autonomous agents have to learn about the effects of their
  34.    actions so as to be able to improve their performance and adapt to
  35.    long term changes. The problem of correlating actions with changes in
  36.    sensor data is O(n2) and therefore computationally intractable for any
  37.    non-trivial application. We propose to make this problem more
  38.    manageable by using focus of attention. In particular, we discuss two
  39.    complementary methods for focus of attention: perceptual selectivity
  40.    restricts the set of sensor data the agent attends to at a particular
  41.    point in time, while cognitive selectivity restricts the set of
  42.    internal structures that is updated at a particular point in time. We
  43.    present results of an implemented algorithm, a variant of the schema
  44.    mechanism [Drescher 91], which employs these two forms of focus of
  45.    attention. The results demonstrate that incorporating focus of
  46.    attention drastically improves the tractability of learning action
  47.    models without affecting the quality of the knowledge learned, at the
  48.    relatively small cost of doubling the number of training examples
  49.    required to learn the same knowledge.
  50.    
  51.    
  52.   EVOLVING VISUAL ROUTINES
  53.   
  54.    Accepted to Alife-IV.
  55.    Michael Patrick Johnson, Prof. Pattie Maes and Trevor Darrell.
  56.    Compressed Postscript Version
  57.    Traditional machine vision assumes that the vision system recovers a
  58.    complete, labeled description of the world [Marr]. Recently, several
  59.    researchers have criticized this model and proposed an alternative
  60.    model which considers perception as a distributed collection of
  61.    task-specific, task-driven visual routines [Aloimonos, Ullman]. Some
  62.    of these researchers have argued that in natural living systems these
  63.    visual routines are the product of natural selection [ramachandran].
  64.    So far, researchers have hand-coded task-specific visual routines for
  65.    actual implementations (e.g. [Chapman]). In this paper we propose an
  66.    alternative approach in which visual routines for simple tasks are
  67.    evolved using an artificial evolution approach. We present results
  68.    from a series of runs on actual camera images, in which simple
  69.    routines were evolved using Genetic Programming techniques [Koza]. The
  70.    results obtained are promising: the evolved routines are able to
  71.    correctly classify up to 93% of the images, which is better than the
  72.    best algorithm we were able to write by hand.
  73.    
  74.    
  75.      _________________________________________________________________
  76.    
  77.     The Autonomous Agents Group / MIT Media Lab /
  78.     agentmaster@media.mit.edu
  79.